每种编程语言都有官方文档,以指导开发人员使用API,方法和类。但是,在某些情况下,官方文档不是获取所需信息的有效方法。结果,开发人员可以咨询其他来源(例如,堆栈溢出,GitHub),以了解有关API的更多信息,其实施,用法和其他官方文档可能无法提供的信息。在这项研究中,我们提出了一种自动方法,通过使用NLP技术利用非正式文档来生成API和方法的摘要。我们的发现表明,生成的摘要具有竞争力,可以用作指导开发人员在软件开发和维护任务方面的补充来源。
translated by 谷歌翻译
自动源代码摘要是一种任务,它生成有关用于对这些代码实体的理解的方法和类别的用于方法和类的总结信息。已经提出了多种方法和技术在规范摘要中进行监督和无监督学习,但是,它们主要集中在为一段代码生成摘要。此外,很少有效利用非官方文件。本文提出了一种自动和新的方法,总结了堆栈溢出中讨论的Android API方法,以便我们认为这项研究中的非官方文档。我们的方法将API方法的名称作为输入,并基于该API方法的堆栈溢出讨论生成自然语言摘要。我们已经进行了一项调查,涉及16个Android开发人员,以评估我们自动生成的摘要的质量,并将它们与官方Android文档进行比较。我们的结果表明,虽然开发人员在普通方面找到官方文件更有用的虽然,所产生的摘要也具有竞争力,特别是用于提供实施细节,并且可以用作指导软件开发和维护任务中开发人员的补充来源。
translated by 谷歌翻译
3D重建问题中的一个关键问题是如何训练机器人或机器人以模型3D对象。在实时系统(例如自动驾驶汽车)中导航等许多任务直接取决于此问题。这些系统通常具有有限的计算能力。尽管近年来3D重建系统在3D重建系统中取得了长足的进展,但由于现有方法的高复杂性和计算需求,将它们应用于自动驾驶汽车中的导航系统等实时系统仍然具有挑战性。这项研究解决了以更快(实时)方式重建单视图像中显示的对象的当前问题。为此,开发了一个简单而强大的深度神经框架。提出的框架由两个组件组成:特征提取器模块和3D发电机模块。我们将点云表示为我们的重建模块的输出。将Shapenet数据集用于将方法与计算时间和准确性方面的现有结果进行比较。模拟证明了所提出的方法的出色性能。索引术语现实时间3D重建,单视图重建,监督学习,深神经网络
translated by 谷歌翻译
本文为基于MPC的基于MPC模型的增强学习方法的计划模块提出了一个新的评分功能,以解决使用奖励功能得分轨迹的固有偏见。所提出的方法使用折现价值和折扣价值提高了现有基于MPC的MBRL方法的学习效率。该方法利用最佳轨迹来指导策略学习,并根据现实世界更新其状态行动价值函数,并增强板载数据。在选定的Mujoco健身环境中评估了所提出方法的学习效率,以及在学习的模拟机器人模型中学习运动技能。结果表明,所提出的方法在学习效率和平均奖励回报方面优于当前的最新算法。
translated by 谷歌翻译
我们提出了一个具有物理信息的神经网络,作为生物样品层析成像重建的正向模型。我们证明,通过用Helmholtz方程训练该网络作为物理损失,我们可以准确预测散射场。可以证明,可以对不同的样本进行微调的验证网络,并用于与其他数值解决方案更快地解决散射问题。我们通过数值和实验结果评估我们的方法。我们的物理知识神经网络可以推广到任何前进和反向散射问题。
translated by 谷歌翻译
一组解决方案中的多元化已成为进化计算社区中的热门研究主题。事实证明,它有益于以多种方式优化问题,例如计算一套高质量的解决方案并获得不完美建模的鲁棒性。在文献中,我们首次适应了现实世界中的组合问题的进化多样性优化,即患者的入学计划。我们引入了一种进化算法,以在每种溶液质量的一组解决方案中实现结构多样性。我们还引入了一个突变操作员,偏向于多样性最大化。最后,我们通过模拟证明了多样性对上述问题的重要性。
translated by 谷歌翻译
卷积神经网络(CNN)已成为医疗图像分割任务的共识。但是,由于卷积操作的性质,它们在建模长期依赖性和空间相关性时受到限制。尽管最初开发了变压器来解决这个问题,但它们未能捕获低级功能。相比之下,证明本地和全球特征对于密集的预测至关重要,例如在具有挑战性的环境中细分。在本文中,我们提出了一种新型方法,该方法有效地桥接了CNN和用于医学图像分割的变压器。具体而言,我们使用开创性SWIN变压器模块和一个基于CNN的编码器设计两个多尺度特征表示。为了确保从上述两个表示获得的全局和局部特征的精细融合,我们建议在编码器编码器结构的跳过连接中提出一个双层融合(DLF)模块。在各种医学图像分割数据集上进行的广泛实验证明了Hiformer在计算复杂性以及定量和定性结果方面对其他基于CNN的,基于变压器和混合方法的有效性。我们的代码可在以下网址公开获取:https://github.com/amirhossein-kz/hiformer
translated by 谷歌翻译
本文介绍了稀疏的周期性收缩期(SPS)数据流,该数据流程推进了最先进的硬件加速器,用于支持轻型神经网络。具体而言,SPS DataFlow启用了一种新型的硬件设计方法,该方法通过新兴的修剪方案(定期基于模式的稀疏性(PPS))解锁。通过利用PPS的规律性,我们的Sparsity-Aware编译器可以最佳地重新定位权重,并在硬件中使用一个简单的索引单元来在权重和激活之间创建匹配。通过编译器硬件编码,SPS DataFlow具有更高的并行度,同时没有高索引开销,并且没有模型的准确性损失。在诸如VGG和Resnet之类的流行基准测试中进行了评估,SPS数据流以及随附的神经网络编译器编译器优于卷积神经网络(CNN)加速器设计的瞄准FPGA设备的设计。针对其他支撑重量存储格式,SPS导致4.49倍的能源效率提高,同时将存储需求降低3.67倍,用于总重量存储(非预紧权重加索引)和22,044X的索引存储器。
translated by 谷歌翻译
最近的一些实证研究表明,重要的机器学习任务,例如训练深神网络,表现出低级别的结构,其中损耗函数仅在输入空间的几个方向上差异很大。在本文中,我们利用这种低级结构来降低基于规范梯度的方法(例如梯度下降(GD))的高计算成本。我们提出的\ emph {低率梯度下降}(lrgd)算法找到了$ \ epsilon $ - approximate的固定点$ p $ - 维功能,首先要识别$ r \ r \ leq p $重要的方向,然后估算真实的方向每次迭代的$ p $维梯度仅通过计算$ r $方向来计算定向衍生物。我们确定强烈凸和非convex目标函数的LRGD的“定向甲骨文复杂性”是$ \ Mathcal {o}(r \ log(1/\ epsilon) + rp) + rp)$ and $ \ Mathcal {o}(R /\ epsilon^2 + rp)$。当$ r \ ll p $时,这些复杂性小于$ \ mathcal {o}的已知复杂性(p \ log(1/\ epsilon))$和$ \ mathcal {o}(p/\ epsilon^2) {\ gd}的$分别在强凸和非凸口设置中。因此,LRGD显着降低了基于梯度的方法的计算成本,以实现足够低级别的功能。在分析过程中,我们还正式定义和表征精确且近似级别函数的类别。
translated by 谷歌翻译
尽管诸如HRNET之类的语义细分的最新架构表现出了令人印象深刻的准确性,但其出色的设计选择引起的复杂性阻碍了一系列模型加速工具,并且进一步利用了对当前硬件效率低下的操作。本文表明,具有类似于重新连接的主链和一个小的多尺度的简单编码器架构,比复杂的语义分割体系结构(例如HRNET,fovenet和ddrnets)表现出PAR或更好。由于这些骨干的有效接收场小得多,因此天真地将设计用于图像分类的深层骨架用于语义分割的任务会导致低于PAR的结果。在HRNET,DDRNET和FANET等作品中提出的各种设计选择中,隐含的是具有较大有效接收场的网络。自然要问一个简单的编码器架构是否会比较如果没有较大的有效接受场的骨架,尽管不使用效率低下的操作(例如扩张的卷积)。我们表明,通过对重新结构进行较小且廉价的修改,可以为语义分割创建非常简单和竞争的基线。我们为台式机和移动目标提供了如此简单的体系结构的家庭,它们匹配或超过CityScapes数据集中复杂模型的性能。我们希望我们的工作为从业者提供了简单而有效的基线,以开发有效的语义细分模型。
translated by 谷歌翻译